#AI 架構
摩爾線程重磅發佈:新一代GPU架構“花港”能效提升10倍,系列晶片明年量產上市,推出AI算力筆記本
國產GPU廠商摩爾線程發佈新一代GPU架構"花港",並宣佈基於該架構的系列晶片將於明年量產上市。這是這家"國產GPU第一股"在技術路線上的重要升級,旨在提升本土AI算力供給能力。12月20日,摩爾線程創始人、董事長兼首席執行長張建中在公司首屆MUSA開發者大會上宣佈,基於"花港"架構的華山、廬山系列晶片將於明年量產上市。據介紹,新架構採用全新一代指令集,算力密度提升50%,能效提升10倍,並支援十萬卡以上規模智算叢集。張建中表示,當前大模型推理仍面臨迭代高速化、服務極致化、模型複雜化三大挑戰。為此,"花港"整合了全精度端到端加速技術和新一代非同步程式設計模型,以提升智算叢集的算力利用率。在同場發佈會上,摩爾線程還推出首款AI算力筆記本MTT AIBOOK,搭載自研智能SoC晶片"長江",32GB、1TB版本預售價9999元。新架構性能大幅躍升"花港"架構在計算和圖形性能上實現多項突破。據張建中介紹,該架構採用全新一代指令集,支援非同步程式設計模型和高效的線程同步,算力密度提升50%,能效提升達10倍。基於該架構的"華山"GPU晶片,在浮點算力、訪存頻寬、訪存容量和高速互聯頻寬方面,取得了多項領先甚至超越國際主流晶片的能力。這標誌著國產GPU在高性能計算領域的技術進步。針對圖形渲染場景,基於"花港"的"廬山"高性能圖形渲染晶片,將實現3A遊戲渲染15倍的提升,AI性能提升64倍,光線追蹤性能提升50倍。該晶片除支援遊戲體驗外,還支援所有CAD等圖形設計渲染應用。據介紹,"花港"架構還擁有全新第一代AI生成式渲染架構(AGR)和第二代光線追蹤硬體加速引擎。軟體生態全面升級在硬體架構升級的同時,摩爾線程宣佈自研MUSA架構迎來全端軟體升級。張建中表示,MUSA架構完美支援全功能GPU計算生態,擁有完備的軟體棧和廣泛的生態相容,統一軟體棧覆蓋全系列產品。張建中強調,全功能GPU的創新就是一部算力進化史,"全功能"意味著其能夠計算所有的資料單元和格式。這一能力對於支援日益複雜的AI模型和多樣化的應用場景至關重要。首款AI算力筆記本亮相摩爾線程在大會上發佈了AI算力筆記本MTT AIBOOK,目前已在京東開放預售。該筆記本搭載摩爾線程自主研發的智能SoC晶片"長江",整合高性能全大核CPU和摩爾線程全功能GPU,支援MUSA統一架構,異構AI算力達50TOPS。該筆記本集開發、辦公、娛樂等功能於一體,支援Windows虛擬機器、Linux、Android容器以及所有國產作業系統。32GB記憶體、1TB儲存版本預售價9999元,面向AI開發者和專業使用者市場。 (華爾街見聞)
GoogleTPU崛起與AI算力雙軌時代:中國供應鏈的機會與挑戰
一、AI算力市場的結構性變化這兩年,全球AI產業有一個現象值得關注:Google正在通過TPU(Tensor Processing Unit,張量處理器)改變AI算力市場的格局。我們先看幾個資料。根據公開資訊,Google與Meta正在洽談數十億美元等級的TPU採購協議,與Anthropic確立的擴容計畫最高可達100萬顆TPU。這個訂單規模是什麼概念?要知道,輝達2024年資料中心業務營收超過470億美元,GoogleTPU拿下的這些訂單,已經足以撬動整個AI算力市場的供需平衡。長期以來,AI算力市場幾乎是輝達一家獨大。根據市場研究機構的資料,輝達在AI加速晶片市場的份額一度超過90%。這種高度集中的供應結構,讓整個產業面臨一個問題:一旦輝達的產能、交付或價格出現波動,整個AI產業都會受到衝擊。現在,一場深刻的變化正在發生。Google通過自研TPU,正在將AI算力市場從"單極"推向"雙軌"。這不是簡單的技術路線補充,而是對現有市場結構的根本性衝擊。這個變化帶來三重意義:它為全球AI產業提供了第二條成熟、可靠的算力供給線,降低供應鏈集中風險;改變AI算力定價邏輯,從過去"輝達說了算"變成"客戶可以選擇";催生一條全新供應鏈——我們可以稱之為"Google鏈",這條鏈上有大量商業機會,其中就包括中國企業位置。要理解這場變化,需要回答三個問題:GoogleTPU憑什麼能挑戰輝達?市場為什麼願意接受TPU?中國企業在這條新供應鏈上處於什麼位置?二、Google的非對稱競爭:系統級性價比的突破Google的競爭策略很聰明——它不跟輝達在"單卡性能"賽道上正面硬剛,而是開闢了一條專注於"系統級總擁有成本(TCO)"和"規模化效率"的新賽道。輝達的技術標竿位置我們先承認一個事實:在單晶片性能和整櫃峰值算力方面,輝達的技術標竿至今無人撐動。其最新的Blackwell架構,特別是B200/GB200系列產品,以其強大的訓練與推理能力、卓越的能效比,被譽為專為兆參數模型打造的“核武器”。但這裡有個問題:對於絕大多數AI應用場景來說,是不是一定需要最頂級的單卡性能?這就像買車,不是所有人都需要一輛能跑300公里/小時的超級跑車。對於大量的日常通勤需求,一輛性價比高、經濟性好的家用車反而是更合理的選擇。GoogleTPU的價值主張就在這裡。它圍繞規模、效率、成本和穩定性建構了一套截然不同的評價體系。我們看一下具體資料訓練成本最佳化第六代TPU Trillium在訓練主流大模型(如Llama系列)時,其"性能/成本比"相較上一代最高可提升12.1倍。這意味著什麼?同等預算下,企業可以訓練規模翻倍的模型。叢集擴展效率TPU在設計之初就為超大規模叢集而生。其分佈式擴展效率極高,即使是由成千上萬顆晶片組成的叢集,依然能維持接近滿載的高效運行。這是很關鍵的一點——很多GPU叢集在規模超過幾千卡後,通訊開銷和分佈式調度的效率會明顯下降。系統架構創新第七代TPU Ironwood更是打破了傳統"堆顯示卡"的思路,將整個系統整合成一台"巨型超級電腦"。一個Pod最多可整合9,216顆TPU和高達1.77PB的共享HBM記憶體,並通過自研的光交換網路將通訊延遲降至最低。這種架構有效規避了困擾大模型訓練的"記憶體牆"問題。資料無需在數千張卡之間頻繁遷移,從而顯著提升了推理速度。根據第三方測評,在GPT等級的大模型訓練上,TPU v5e在保持相近吞吐量的前提下,總成本能做到高端GPU方案的"零頭等級"。量化的成本優勢當我們將複雜的性能參數轉化為企業最關心的財務指標時,TPU的優勢便一目瞭然。看下表:這個9倍的價格差異意味著什麼?舉個例子,如果一家初創AI公司有500萬美元的算力預算,用H100可能只能訓練一個中型模型,但用TPU就有可能支撐多個模型的平行開發,或者訓練更大規模的模型。非對稱競爭的戰略意義Google這種打法是一種典型的非對稱競爭策略。它承認輝達在單點性能上的領先地位,但通過系統級的架構創新和成本最佳化,為AI算力市場提供了一個極具吸引力的替代方案。對於使用者來說,這意味著他們第一次有了真正的選擇權。需要極致通用性和單點性能的任務繼續使用GPU,對成本敏感且可最佳化的任務遷移至TPU,從而實現成本和效率的最佳化。這種策略能否成功,關鍵看市場是否買帳。而市場的態度,最好的衡量標準就是看頂級玩家的實際訂單。三、市場驗證:頂級玩家用訂單投票評估一項新技術的潛力,最好的方式就是看市場頂級玩家的實際行動。AI巨頭Anthropic和Meta對GoogleTPU的採納,不僅是對其技術價值的有力背書,更揭示了整個AI產業在算力採購策略上的深層轉變。Anthropic:初創公司的務實選擇對於Anthropic這樣的頂尖AI初創公司來說,其決策背後是基於"規模×成本×風險"的綜合商業考量。其與Google高達100萬顆TPU的擴容計畫,驗證了TPU能夠以極高的性價比支撐世界級模型研發。TPU對Anthropic的核心吸引力在於:1. 更低的預算支撐更大的模型:能夠以遠低於GPU方案的成本,支撐其未來更大規模模型的研發與部署。2. 規避重資產投入:將資料中心的建設、電力配套、光纖網路和長期維護等重資產負擔完全外包給Google雲。這使其能夠將寶貴的資金和精力全部聚焦於模型研發這一核心業務。這是初創AI公司的典型選擇邏輯。它們需要的不是最頂尖的單點性能,而是最高的性價比和最靈活的資源調度。Meta:行業巨擘的風險避險作為輝達最大的客戶之一,Meta的動機則更多地源於供應鏈風險避險和長期營運成本最佳化。Meta計畫自2027年起將部分推理和微調任務遷移至TPU。注意這個時間表——2027年,還有兩年多的準備期。這不是短期的成本節約措施,而是一項長期的架構決策。數年的準備期說明什麼?這是一次深思熟慮的基礎設施根本性多元化,其戰略意義已超越單純的風險避險,演變為一個基礎性的多供應商戰略。將日常高頻的推理任務遷移至成本更低的TPU平台,能夠直接轉化為持續性的現金流節約。戰略突破:進入高價值安全市場更具里程碑意義的是,Google已成功將TPU部署到高頻交易、銀行和國防部門等對安全要求最為嚴苛的領域。這標誌著TPU已經跨越了資料隔離、超低延遲、可審計性和主權安全等GPU長期難以突破的門檻。這是一次"質變",因為它首次打開了一個過去幾乎由GPU壟斷且對外封閉的高價值市場。這影響的將不僅僅是採購訂單,而是長期的算力主權佈局。資料說明的問題這些來自不同領域頂級企業的積極採納,正在催生一條全新的AI供應鏈。這條供應鏈的版圖正以前所未有的速度擴張。而在這條鏈上,中國企業的位置值得深入分析。四、解構"Google鏈":一條新興供應鏈的完整版圖隨著TPU訂單的規模化,一個圍繞Google、獨立於GPU生態的全新AI硬體供應鏈——我們可以稱之為"Google鏈"——正在快速成形。這條鏈的核心環節和關鍵玩家值得系統性地梳理。核心通訊與網路 - Broadcom (AVGO)Broadcom在GoogleTPU供應鏈中的角色並非簡單的供應商,而是與Google合作近十年的深度戰略夥伴。這種長期共同開發的關係,確保了其網路架構不僅與TPU相容,更是為TPU Pod在超大規模下的獨特需求而共同演進的。Broadcom提供了高速SerDes、交換ASIC和光交換晶片這三大核心能力,分別扮演著TPU叢集的"血管、神經系統和主幹公路",其技術實力足以在超大規模資料中心場景中,提供可與輝達NVLink相抗衡的頂級網路架構。先進製造與封裝 - TSMC、Amkor、ASX這三家公司構成了TPU製造端的"鐵三角"。台積電(TSMC)的先進工藝(如3nm/2nm)決定了TPU的算力上限,而Amkor(AMKR)與日月光(ASX)的高密度封裝技術,則決定了HBM帶來的超高頻寬能否真正落地。這裡需要補充一個中國角度的觀察。在封裝測試環節,中國三大封測龍頭——長電科技、通富微電、華天科技在全球市場佔據重要位置。根據2024年資料,這三家公司合計佔據全球市場份額約26%。長電科技2024年營收達50億美元,同比增長19.3%,位居全球第三;通富微電營收33.2億美元,華天科技同樣保持強勁增長態勢。這些公司通過收購海外封測廠和技術積累,已具備服務高端AI晶片封裝的能力。這個資料說明什麼?說明在先進封裝這個關鍵環節,中國企業已經具備了與國際巨頭競爭的實力。雖然在高端市場份額上還與日月光、Amkor有差距,但增長速度和技術積累速度已經進入快車道。系統整合與整機組裝 - Jabil、Flex、CelesticaJabil (JBL)、Flex (FLEX)與Celestica (CLS)是追蹤Google資本支出(CapEx)的"最佳風向標"。它們負責TPU模組、伺服器機架、電源系統與整櫃裝配。隨著TPU功耗與密度的提升,這些ODM廠商的單櫃價值量也隨之水漲船高。這裡有個重要的中國玩家:工業富聯。根據公開資訊,工業富聯是GoogleTPU供應鏈的核心合作夥伴,深度參與兩大關鍵環節:1. TPU封裝代工工業富聯為GoogleTPU晶片提供封裝服務,越南新建TPU封裝產線月產能達20萬顆,2025年Q2來自Google的相關封裝訂單同比增長150%。2. 伺服器整機組裝獨家承接GoogleTPU配套AI伺服器整機組裝,單台伺服器價值超過50萬美元,毛利率達25%(遠超行業平均的15%),2025年來自Google的伺服器訂單超過80億元,佔其雲類股收入30%,且佔Google全球AI伺服器訂單的60%。這個資料是什麼概念?單一一個工業富聯,2025年從GoogleTPU相關業務中就能獲得80億元訂單,這已經超過了很多上市公司的全年營收。而且25%的毛利率,說明Google對於高端製造能力是願意付出溢價的。高速光通訊互聯 - Lumentum、Coherent、BroadcomTPU叢集的橫向擴張離不開高速光通訊。隨著資料中心互聯從400G向800G/1.6T升級,Lumentum (LITE)、Coherent (COHR)以及Broadcom的光通訊業務將最先感受到需求的躍升。在這個環節,中國光模組廠商深度介入相關業務:中際旭創:Google光模組主供應商,海外子公司TeraHop推出矽光子OCS交換機。新易盛、天孚通訊:作為光模組重要廠商,受益於GoogleTPU對高速光模組需求的增長。光迅科技:在OFC2024創新推出MEMS系列最新產品OCS。其他關鍵廠商:騰景科技、德科立、光庫科技、炙光科技、賽微電子等企業均在OCS技術上有所佈局。連接器供應商:長芯博創佔據GoogleMPO連接器市場25%份額,2025年預計採購額達7.5-8億元。這裡需要特別指出的是,Google採用的光電路交換機(OCS)是一個在傳統資料中心從未存在的"全新增量市場"。這為中國光通訊企業提供了一個全新的競爭賽道,不用跟國際巨頭在傳統產品上正面競爭,而是在新技術上同步起跑。基礎設施(電源與散熱) - Vertiv、中國供應商Vertiv (VRT)是"Google鏈"中"最通吃"的公司。無論是部署GPU還是TPU,算力密度的持續走高都使其電源管理與液冷系統成為不可替代的底層基礎設施。中國企業在這個環節的突破值得關注:新雷能:已成功切入GoogleTPU(V7)電源供應鏈,單瓦價格比台系競爭對手低20%,為GoogleTPU提供二次和三次電源模組,是國內少數幾家通過Google認證的電源供應商。與ADI合作的電源模組已進入GoogleTPU伺服器量產階段,目前整體意向訂單超過5億美金。中富電路:與新雷能合作,確定進入Google三次、二次電源PCB供應鏈。這個5億美金的訂單意味著什麼?對於一家中型企業來說,這是一個可以支撐數年增長的巨大機會。更重要的是,它標誌著中國企業在高端電源管理這個關鍵技術環節上,已經獲得了國際巨頭的認可。PCB與配套環節勝宏科技:GoogleV6/V7主供,承接V7P大份額訂單,2026年潛在收入增量約16億元。Google近期考察勝宏科技等國內PCB巨頭,計畫將供應鏈本土化比例從5%提升至20%(2026年目標)。滬電股份:TPU PCB核心供應商,佔Google份額30%,主導30-40層板生產。深南電路:供應V7 44層板,通過Google測試並具備量產能力。這裡有個關鍵資料:Google計畫將PCB供應鏈本土化比例從5%提升至20%。這意味著什麼?假設GoogleTPU相關PCB採購總額為100億元,那麼中國供應商的份額將從5億元增加到20億元,增長3倍。這是一個明確的增量市場。雲端到終端的閉環 - Qualcomm高通在Google的AI版圖中扮演著承上啟下的關鍵角色。它通過Snapdragon平台強大的NPU和DSP能力,承載Google端側大模型(Gemini Nano)的本地運行,補全了Google從"雲到端"的完整算力體系,構成了戰略閉環。小結:一條全新供應鏈的成形"Google鏈"的形成不僅是商業上的成功,它更深層次地改變了全球AI基礎設施的宏觀結構。而在這條鏈上,中國企業的位置值得更深入的分析。五、中國企業的位置:從配角到關鍵環節在梳理完"Google鏈"的完整版圖後,我們需要更系統地分析中國企業在這條鏈上的真實位置、競爭力來源和未來機會。一個核心觀察:中國企業的參與度我們先看一組對比資料。在輝達GPU供應鏈中,中國企業主要集中在中低端環節——PCB、散熱、機架等,在高端晶片封裝、高速互聯等關鍵技術環節的參與度相對有限。但在GoogleTPU供應鏈中,我們看到了不同的圖景:這個表格說明了什麼?說明在GoogleTPU供應鏈中,中國企業已經從過去的"配角補充"上升到"關鍵環節參與者",甚至在某些領域成為核心供應商。為什麼Google鏈給了中國企業更多機會?這個現象背後有幾個結構性原因:1. 技術路線差異降低了門檻輝達GPU生態經過十幾年演進,已經形成了高度固化的供應商網路,新進入者很難突破。而GoogleTPU採用不同的技術架構,特別是光電路交換機(OCS)這樣的全新技術,給了中國企業一個同步起跑的機會。2. 成本控制需求強化了中國優勢TPU的核心競爭力在於系統級性價比。這意味著Google對成本的敏感度遠超過輝達。而中國供應鏈的核心優勢恰恰就是成本控制能力。舉個例子,新雷能的電源模組單瓦價格比台系競爭對手低20%,這就是競爭力所在。3. 供應鏈多元化戰略需要中國Google計畫將PCB供應鏈本土化比例從5%提升到20%,這不是簡單的成本考量,而是一個戰略性的供應鏈多元化決策。中國擁有全球最完整的電子產業鏈,是實現供應鏈多元化的理想選擇。4. 技術積累已達到門檻值過去十年,中國企業在先進封裝、高速光模組、高層PCB等領域的技術積累,已經達到了可以服務高端AI晶片的水平。長電科技全球排名第三、中際旭創成為Google光模組主供應商,都是這種技術積累的體現。中國企業的競爭力分析我們看幾個具體案例:案例1:工業富聯——規模優勢轉化為技術能力工業富聯能夠獲得GoogleTPU 60%的伺服器組裝訂單,靠的不僅僅是價格,更是其在複雜系統整合上的技術能力。TPU Pod的組裝需要協調成千上萬顆晶片、複雜的光網路和散熱系統,這對系統整合能力的要求極高。工業富聯憑藉多年服務蘋果、Google等頂級客戶的經驗,已經具備了這種能力。更重要的是,25%的毛利率說明這不是低端的價格競爭,而是真正的高端技術服務。案例2:中際旭創——全球化佈局的回報中際旭創成為Google光模組主供應商,不是偶然。這家公司通過收購海外高端光模組企業,快速提升了技術能力和客戶資源。其子公司TeraHop推出的矽光子OCS交換機,就是這種全球化佈局的直接成果。這個案例說明,中國企業已經懂得如何通過全球化營運獲取高端技術,並將其與自身的製造優勢結合,形成獨特的競爭力。案例3:新雷能——細分領域的突破電源管理是AI伺服器的關鍵技術,長期被歐美企業壟斷。新雷能能夠突破這個封鎖,靠的是在特定細分領域的深耕。它與ADI的合作,將國際巨頭的晶片技術與自身的模組設計、製造能力結合,打造出了性價比更高的產品。5億美金的訂單,對於一家中型企業來說是一個質的飛躍。這說明在高端技術領域,只要找到正確的突破口,中國企業完全有能力與國際巨頭競爭。機會窗口:三個增長驅動力展望未來2-3年,中國企業在GoogleTPU供應鏈上面臨三個明確的增長驅動力:1. 體量增長:訂單規模的持續擴大根據Google的計畫,TPU的部署規模將在未來2-3年內繼續快速擴張。僅Anthropic一家就有100萬顆TPU的擴容計畫,Meta自2027年起的遷移也將帶來持續訂單。這意味著整個供應鏈的規模將繼續擴大,已經進入的中國企業將直接受益。2. 份額增長:供應鏈本土化的推進Google明確表示要將中國供應商的比例從5%提升到20%。這是一個3倍的增長空間。即使總體市場不增長,中國企業也能通過提升份額獲得增長。而實際上,市場總量和份額都在同步增長,這是一個雙重紅利。3. 能力增長:從低端向中高端遷移更重要的是,通過服務GoogleTPU這樣的高端項目,中國企業正在積累服務頂級AI晶片的經驗和技術能力。這種能力的提升,將幫助中國企業在未來爭奪更高端的市場位置。挑戰與差距當然,我們也需要清醒地認識到差距和挑戰:技術差距依然存在:在先進製程、頂層晶片設計、高端材料等領域,中國企業與國際頂級水平還有距離。例如,TPU晶片依然需要台積電的先進製程。競爭圧力加大:隨著"Google鏈"價值的顯現,更多國際巨頭也在加速進入。中國企業需要持續提升技術能力才能保持競爭力。地緣政治風險:在當前的國際環境下,中國企業進入美國主導的高端供應鏈依然面臨不確定性。小結:從機會到能力GoogleTPU供應鏈的崛起,為中國企業提供了一個歷史性的機會窗口。但機會能否轉化為長期的競爭力,關鍵還在於企業自身的技術積累和能力建設。從目前的表現來看,中國領先企業已經展現出了在特定領域與國際巨頭競爭的能力。隨著更多企業的進入和技術的持續提升,中國企業在全球AI供應鏈中的位置將繼續上移。六、雙軌時代:AI基礎設施的新格局GoogleTPU的崛起並非一場"誰取代誰"的零和遊戲,而是一次全球AI算力結構的"大擴容"。其本質是在輝達主導的路徑之外,為全球AI產業開闢了第二條成熟、可靠的算力供給線。雙軌結構的三大價值這一"雙軌結構"為整個AI產業帶來了三大核心價值:1. 降低供應鏈集中風險過去兩年,全球AI產業對輝達的過度依賴已成為一個潛在風險。產能、交付或價格的任何波動都可能引發整個行業的連鎖反應。“雙軌結構”的形成,使得整個行業在面對不確定性時更具韌性。這就像一個國家的能源供應,如果只依賴一種能源,那麼一旦供應出現問題,整個經濟都會受到衝擊。但如果有多元化的能源結構,就能大大降低這種系統性風險。2. 賦能客戶精細化配置AI的底層基礎設施正在從過去"輝達說了算"的單一生態,徹底升級為"客戶說了算"的多層次算力池。企業使用者首次可以"像在餐廳點菜一樣",根據任務特性靈活配置資源:需要極致通用性的任務繼續使用GPU對成本敏感且可最佳化的任務遷移至TPU穩定的重複性工作可交給專用ASIC這種靈活性能夠幫助企業實現成本和效率的最佳化。一家AI初創公司可以用GPU開發和訓練新模型,但用TPU進行大規模的推理服務,從而在性能和成本之間找到平衡。3. 重塑資本市場估值邏輯這種結構性變化直接催生了兩種不同的資本市場估值模型:對於投資者和產業研究者來說,這意味著需要用不同的框架來評估兩條鏈上的企業。輝達鏈上的企業已經進入成熟期,需要看其生態壁壘、技術領先性和平台溢價能力;而Google鏈上的企業還處於快速成長期,更需要關注其訂單增速、產能擴張和市場份額提升。兩條鏈是共生而非對立我們的核心觀點是,這兩條鏈是共同驅動而非相互對立的關係。一個形象的比喻是:“輝達推高天花板,讓模型變得更強;Google拓寬高速路,讓算力供給更可持續、更規模化。”因此,"Google鏈"的出現不應被誤讀為對輝達的威脅,它反而是下一輪更大規模算力投資的開場訊號。Google的成功驗證了AI在超大規模部署下的巨大投資回報,這只會加劇行業的軍備競賽。事實上,我們已經看到這種趨勢。Meta在實施TPU遷移計畫的同時,依然是輝達的最大客戶之一,並且繼續大量採購GPU用於核心訓練任務。Anthropic也並未完全放棄GPU,而是在不同場景下選擇最合適的工具。對中國產業的啟示雙軌時代的到來,對中國產業有幾個重要啟示:1. 多元化佈局的重要性中國企業不應該把雞蛋放在一個籃子裡。既要繼續在輝達GPU供應鏈上提升位置,也要積極抽取GoogleTPU供應鏈的機會。多元化的客戶結構和產品線能夠降低風險、提升競爭力。2. 技術積累的關鍵性無論是GPU還是TPU供應鏈,核心都是技術能力。中國企業需要持續在先進封裝、高速互聯、電源管理、散熱技術等領域加大研發投入,不斷縮小與國際頂級水平的差距。只有技術能力到位,才能將機會轉化為長期的競爭力。3. 產業鏈協同的必要性AI算力基礎設施是一個高度複雜的系統工程,涉及晶片、封裝、網路、伺服器、軟體等眾多環節。中國需要加強產業鏈上下游的協同,形成合力,才能在全球競爭中佔據更有利的位置。小結:雙引擎驅動下一軛AI超級周期最終,AI算力版圖從"單極"走向"雙軌",並非市場分裂的訊號,而是產業走向成熟、健康和更具擴展性的標誌。輝達與Google共同構成了驅動下一軛AI發展的雙引擎。這一結構性變化為未來3-5年兆級的算力擴張鋪設了更安全、更立體、更可持續的基建,明確預示著下一輪AI超大周期的正式開啟。七、結論:理解這場變革的真實意義本文的核心發現是,Google通過聚焦系統級性價比的非對稱競爭策略,已成功在輝達主導的市場中開闢出第二條成熟的算力供給線,並獲得了Meta、Anthropic等關鍵市場參與者的驗證,催生了"Google鏈"這一全新供應鏈生態。關於GoogleTPU的競爭力Google沒有選擇在單卡性能上與輝達正面競爭,而是通過系統級的架構創新和成本最佳化,為AI算力市場提供了一個極具吸引力的替代方案。資料說明一切:訓練成本:性能/成本比相較上一代提升12.1倍價格差異:單晶片計費價格與H100相差9倍系統成本:總體算力成本普遍降低30%-40%這種非對稱競爭策略的成功,說明在高科技領域,並不是只有一條賽道。通過找到差異化的價值主張,同樣能夠在市場上站穩腳跟。關於雙軌結構的意義"雙軌"結構的形成不是市場的分裂,而是產業的成熟。它為全球AI產業帶來了三大價值:降低供應鏈集中風險、賦能客戶精細化配置、重塑資本市場估值邏輯。輝達與Google不是你死我活的關係,而是共同驅動AI產業發展的雙引擎。輝達推高天花板,讓模型變得更強;Google拓寬高速路,讓算力供給更可持續、更規模化。這種結構為未來3-5年兆級的算力擴張鋪設了更安全、更立體的基礎。關於中國企業的機會對於中國企業來說,GoogleTPU供應鏈的崛起是一個歷史性的機會窗口。我們看到了明確的證據:工業富聯獲得Google60%伺服器組裝訂單,2025年訂單超過80億元,毛利率達25%長電科技等封測龍頭合計佔據全球市場份額約26%,增速進入快車道新雷能切入GoogleTPU電源供應鏈,意向訂單超過5億美金中際旭創成為Google光模組主供應商,在OCS新技術上同步起跑滬電/勝宏/深南PCB份額計畫從5%提升到20%,3倍增長空間這些資料說明,中國企業已經從過去在GPU供應鏈中的"配角補充",上升到在TPU供應鏈中的"關鍵環節參與者",甚至在某些領域成為核心供應商。為什麼Google鏈給了中國企業更多機會?四個原因:技術路線差異降低了門檻、成本控制需求強化了中國優勢、供應鏈多元化戰略需要中國、技術積累已達到門檻值。但我們也要清醒地認識到差距和挑戰。在先進製程、頂層晶片設計、高端材料等領域,中國企業與國際頂級水平還有距離。機會能否轉化為長期競爭力,關鍵還在於技術積累和能力建設。展望未來展望未來3-5年,我們能夠看到幾個明確的趨勢:1. 算力需求將繼續爆發性增長不管是GPU還是TPU,總體市場規模都在快速擴張。Google和輝達的雙引擎,將共同推動AI算力基礎設施進入一個新的擴張周期。2. 中國企業的份額將繼續提升無論是總量增長還是結構性提升(如PCB從5%到20%),中國企業都將獲得更多機會。3. 技術能力將是決定性因素在先進封裝、高速互聯、電源管理、散熱技術等領域持續投入的企業,將獲得更大的競爭優勢。4. 產業鏈協同將變得更加重要AI算力基礎設施是系統工程,需要產業鏈上下游的緊密協同。中國具備完整產業鏈的優勢,關鍵是如何將其轉化為競爭力。最後的話GoogleTPU的崛起和AI算力雙軌時代的到來,不是一場簡單的技術替代,而是一次深刻的產業結構變革。它重塑了全球AI算力的競爭格局,為中國企業打開了新的機會窗口,也為整個AI產業的長期健康發展奠定了基礎。對於中國產業來說,這是一個需要牢牢把握的機會。通過持續的技術積累、靈活的市場策略和緊密的產業協同,中國企業完全有可能在全球AI供應鏈中佔據更加重要的位置,從而在這場全球性的技術變革中獲得更大的價值。 (行業報告研究院)
Gemini 面臨的最大風險|DeepMind 首席技術官最新訪談實錄
11月25日,Google DeepMind 首席技術官兼 Google 首席 AI 架構師 Koray Kavukcuoglu 接受了Google for Developers的訪談。本次對話探討了 Scaling Law的現狀、基準測試的本質、Gemini 關注的重點領域,強調指令遵循、工具呼叫和國際化,以及多模態模型最終走向“單一權重”的演進路徑等話題。Koray Kavukcuoglu 堅信,AI 進步的步伐並未放緩,Scaling 仍在持續。他指出,基準測試不等於進步,它只是定義“未解決問題”的臨時工具。當模型分數接近頂峰,舊基準便失效,真正的進步標準必須從“刷榜”轉向模型在現實世界中被科學家、律師、工程師等專業人士使用的廣度與深度。在技術路徑上,Koray 強調程式碼與工具呼叫是智能的全新“倍增器”。模型不僅是工具的使用者,更是工具的製造者。他認為,直接從軟體工程師等終端使用者處獲取的反饋訊號,對模型後訓練階段的質量提升具有決定性意義,這種“與產品整合並獲取訊號”的模式已成為理解問題的核心驅動力。Koray 預測,圖像生成與文字生成最終將統一於“單一模型權重”之下,儘管目前仍面臨像素級完美與概念連貫性的雙重挑戰,但這將是必然趨勢。此外,他透露Gemini 面臨的最大風險並非外界擔憂的安全問題,而是“創新枯竭”——即誤以為只要照搬成功公式進行擴展即可,他認為唯有持續在架構和理念上進行創新,才是通往 AGI 的唯一路徑。01 基準測試的侷限與 Scaling LawGemini 3 已經上線,反響積極。回看從 2.5 到 3.0 的處理程序,感覺進步的步伐並未放緩。目前業界對 Scaling有諸多討論,你認為這種趨勢還能持續嗎?此外,有些基準測試如 HLE、ARC-AGI-2 分數飆升,而像 GPQA Diamond 這樣的靜態基準測試依然屹立不倒。你是如何看待這些基準測試的演變以及它們與實際進步之間的關係的?Koray Kavukcuoglu:我對這些進步感到非常興奮,尤其是研究方面的進展。身處研究一線時,你會發現各個領域都充滿了令人興奮的事物,從資料、預訓練、後訓練到方方面面。我們看到了很多熱情、進步和新想法。歸根結底,這一切都源於創新和想法。我們做出的東西越有影響力,越能進入現實世界被人們使用,我們實際上就會獲得更多的靈感,因為你的接觸面擴大了,獲得的訊號種類也增加了。我認為問題會變得更難、更多樣化,隨之而來的挑戰也會升級,但這種挑戰是好事。這也是我們建構智能的動力。有時如果你只看一兩個基準測試,可能會覺得分數提升的空間變小了,但我認為這很正常。基準測試是在某個任務還具有挑戰性時定義的。隨著技術進步,舊的基準測試就不再能代表最前沿的水平了。於是你會定義新的基準測試。這在機器學習中非常正常。基準測試和模型開發總是相輔相成的。你需要基準測試來指導模型開發,但只有當你接近現有目標時,你才知道下一個前沿在那裡,從而定義新的基準。(關於 GPQA 等難題)那裡面確實有一些很難的問題。那些我們仍然無法解決的難題,依然在測試著某種能力。但如果你看看我們在 GPQA 上的表現,我們並不是停留在二三十分需要追趕到九十分,而是已經接近頂峰,所以它所定義的“未解決問題”正在減少。在某種程度上,尋找新的前沿和基準是件好事。定義基準測試真的很重要。如果我們把基準測試等同於進步,那並不一定總是一致的。進步是進步,基準是基準。理想情況下它們是百分百一致的,但現實從來不是這樣。對我來說,衡量進步最重要的標準是我們的模型被現實世界中的科學家、學生、律師、工程師所使用。人們用它做各種事情,比如創意寫作、發郵件。從簡單到困難的光譜,以及不同的主題和領域都很重要。如果你能持續在這些方面提供更大的價值,我認為那就是進步。基準測試只是幫助你量化這一點。02 程式碼與工具呼叫是智能的倍增器,模型本身正在變成一種可建構工具的工具你是如何考慮從一個模型版本到下一個版本的持續最佳化的?比如在指令遵循、國際化語言支援以及程式碼和工具呼叫方面,我們的最佳化目標是什麼?此外,作為 Gemini 3 發佈的一部分,我們推出了 Google Anti-Gravity 作為一個新的 Agentic 編碼平台。為了從模型角度提升質量,你有多看重這種“產品腳手架”(Product Scaffolding)在獲取反饋訊號方面的作用?Koray Kavukcuoglu:有幾個重要的領域。其中之一是指令遵循。這要求模型能夠理解使用者的請求並嚴格執行。你不希望模型只是回答它覺得自己該回答的內容。指令遵循能力非常重要,這也是我們一直在做的。對我們來說,國際化也很重要。Google 是一家非常國際化的公司,我們希望觸達全球使用者,所以這部分很關鍵。你必須持續關注這些領域。它們看起來可能不像知識的前沿,但因為要在那裡與使用者互動,所以非常重要。正如我所說,這一切都是為了從使用者那裡獲得訊號。(關於程式碼與工具呼叫)接下來,如果你進入稍微技術一點的領域,函數呼叫、工具呼叫、Agentic 行為和程式碼真的很重要。函數呼叫和工具呼叫之所以重要,是因為我認為這是智能的一個全新倍增器,不僅模型可以自然地使用我們建立的所有工具和函數進行推理,而且模型還可以編寫自己的工具。你可以認為模型本身也是一種工具。這是一件大事。顯然程式碼很重要,不僅因為我們是軟體工程師,還因為有了程式碼,你實際上可以建構任何在你筆記型電腦上運行的東西。而在筆記型電腦上發生的不只是軟體工程。我們現在做的很多事情都發生在數字世界中,而程式碼是這一切的基礎,它能與你生活中幾乎所有事情整合。這就是為什麼這兩者結合在一起能極大地擴展使用者的能力。我喜歡舉 Vibe coding 這個例子。很多人很有創造力,有很多想法,突然之間你讓他們變得高產了。從有創意到有產出,你只需要把它寫下來,應用程式就會在你面前呈現。大多數時候它都管用,而當它管用時感覺棒極了。這種反饋循環很棒。突然之間,你讓更多人成為了建設者。能夠建構東西的感覺是很棒的。(關於產品腳手架的作用)對我來說這非常重要。Anti-Gravity 本身是一個令人興奮的產品,但從模型的角度看它具有雙重價值。首先從模型端來看,能夠與終端使用者,在這裡是軟體工程師整合,並直接向他們學習,瞭解模型那裡需要改進,這對我們來說至關重要。Gemini App 也是出於同樣的原因,直接理解使用者非常重要。Anti-Gravity 和 AI Studio 也是如此。擁有這些我們緊密合作的產品,然後理解、學習並獲取使用者訊號,作用是巨大的。Anti-Gravity 一直是非常關鍵的發佈合作夥伴。雖然他們加入不久,但在發佈的最後兩三周,他們的反饋真的起到了決定性作用。Search AI Overviews 搜尋 AI 概覽也是一樣,我們從中獲得了很多反饋。對我來說,與產品的整合並獲取訊號是我們理解問題的主要驅動力。當然我們有基準測試,所以我們知道如何推動 STEM、科學、數學這些硬核智能的發展。但理解現實世界的用例真的很重要,因為技術必須在現實世界中有用。03 通過產品連接使用者是建構智能的路徑作為新任首席 AI 架構師,你的職責擴展到了確保 Google 的產品能真正利用這些模型,Gemini 3 發佈首日就覆蓋了所有產品介面。相比一年半前單純的研發,這種“既要模型好,又要產品用好”的雙重目標增加了多少複雜性?此外,我們在某種意義上正在與客戶共同建構 AGI,在這種開放模式下,你是如何考量安全與穩健性的?Koray Kavukcuoglu:確實增加了複雜性,但我們在建構智能。很多人問我身兼雙職的問題。我有兩個頭銜,但這在很大程度上是同一件事。如果我們要建構智能,就必須通過產品、通過連接使用者來實現。作為架構師,我試圖做的是確保 Google 的產品能獲得最好的技術支援。我們不是要親自“做”產品,我們不是產品經理,我們是技術開發者。我們開發技術,訓練模型。當然每個人都有自己的觀點,但對我來說,最重要的是以最佳方式提供模型和技術,然後與產品團隊合作,讓他們在這個 AI 世界中建構最好的產品。這是一個新世界。新技術正在定義使用者的期望、產品的表現形式、資訊的傳遞方式,以及你可以用它做的所有新鮮事。對我來說,這就是要在整個 Google 範圍內實現這一點,與所有產品團隊合作。這令人興奮,不僅從使用者獲得的產品角度,也從我之前提到的角度,那是我們的主要驅動力。感知使用者需求、獲取使用者訊號對我們來說至關重要。這就是我想做這件事的原因。這是我們建構 AGI 的路徑。這也是我們建構智能的路徑,通過產品。(關於安全與穩健性)而且我認為這實際上也是一個非常值得信賴、久經考驗的系統。這是一種我們正在越來越多採用的工程思維。在這個問題上保持工程思維很重要。當東西經過精心設計,你知道它是穩健的、安全的。所以我們在現實世界中做事,採用的是所有經過驗證的建構理念。這也反映在我們如何考量安全和安保。我們試圖從底層、從一開始就考慮這些,而不是事後諸葛亮。所以在做後訓練模型、預訓練和處理資料時,我們始終銘記在心。每個人都要思考這個問題。我們有安全團隊嗎?顯然有,他們帶來了相關技術。安保團隊也一樣。但關鍵是讓參與 Gemini 的每個人都深入參與這個開發過程,並將其作為第一原則。這些團隊本身也是我們後訓練團隊的一部分。當我們開發這些模型、進行迭代和發佈候選版本時,就像我們關注 GPQA、HLE 這些基準測試一樣,我們也關注安全和安保指標。我認為這種工程思維很重要。04 程式碼與智能體仍需突破最後的體驗瓶頸Gemini 3 的發佈就像 NASA 的阿波羅計畫,雖然參與者眾多,但這確實是 Google 全球團隊的共同努力。你如何評價這種跨國協作?同時,雖然模型在許多基準測試上都是 SOTA,反響也很積極,但如果快進到下一次發佈,還有什麼事是你希望列在“真希望我們做了 X、Y、Z”的清單上的?在享受當下的同時,你看到了那些具體的差距?Koray Kavukcuoglu:關於 Gemini 3,我們也剛反思過。對我來說,重要的一點是這個模型是一個真正的 Team Google 模型。每個 Gemini 版本的發佈都需要來自美洲、歐洲、亞洲等世界各地的人員參與。我們有遍佈全球的團隊在做貢獻。不只是 Google DeepMind 團隊,而是 Google 的所有團隊。這是一個巨大的協作成果。我們與 AI Mode 同步發佈,與 Gemini App 同步發佈。這些都不容易。他們在開發過程中與我們並肩作戰。只有這樣,在模型準備好的第一天,我們才能一起發佈。我們一直在這樣做。當我們說“跨越 Google”時,不僅僅是指那些積極建構模型的人,所有的產品團隊也在貢獻力量。(關於未來的差距)我認為應該兼顧。我們要享受這一刻,那怕只享受一天也是好的。這是發佈日,人們在讚賞這個模型,所以我希望團隊也能享受這一刻。但與此同時,在每一個領域,我們也看到了差距。寫作完美嗎?不完美。編碼完美嗎?也不完美。特別是在 Agentic 行為和編碼領域,我認為還有很大的提升空間。那是增長最令人興奮的領域之一。我們需要識別那裡可以做得更多,並且我們會去做。我認為我們已經走了很遠。可以說,對於那些從事編碼的人,無論是軟體工程師還是想建構東西的創意人士,這個模型基本上滿足了他們 90% 到 95% 的需求。我願意認為這個模型是他們能用的最好的工具。但在某些情況下,我們可能還需要做得更好。關於程式碼和工具使用,回顧 Gemini 的發展歷程,顯然我們在 1.0 版本時非常側重於多模態能力,而在 2.0 版本中,我們才開始建構一些智能體基礎設施。你覺得為什麼我們沒有從一開始就在智能體工具使用方面處於業內領先地位?畢竟在多模態領域,Gemini 1 從一開始就是業內領先的。Koray Kavukcuoglu:我不認為這是刻意為之。坦率地說,回過頭看,我認為這與模型的使用方式有關,也就是開發環境與現實世界的聯絡緊密程度。我們與現實世界的聯絡越緊密,就越能理解實際發生的真實需求。在 Gemini 的研發征程中,我們的起點是 Google 深厚的 AI 研究底蘊。我們擁有大量傑出的研究人員和輝煌的 AI 研究歷史。但 Gemini 的研發也是一個從研究環境向工程思維轉變的過程,讓我們進入了一個真正與產品緊密相連的領域。看著現在的團隊,我感到非常自豪,因為這個團隊的大多數成員,包括我自己,在四五年前還在寫論文。那時我們在做 AI 研究。而現在,我們站在技術的最前沿,通過與產品使用者的互動來開發技術。這是一種完全不同的思維模式。以前我們可能很久才出一個成果,現在我們每六個月建構一次大模型,然後每一到一個半月就進行一次更新。這是一個驚人的轉變,而我們成功跨越了這一轉變。05 圖像與文字架構正在趨同,最終將融合為單一模型的“物理理解力”隨著 Veo 3、Nano Banana 模型的出現,我們在產品化方面取得了巨大成功。在追求 AGI 的過程中,你是如何看待生成式媒體模型的定位?它們是否也是理解物理世界和萬物運行規律的關鍵部分?Koray Kavukcuoglu:如果你回到 10 到 15 年前,生成式模型主要集中在圖像上,因為我們可以更直觀地檢查結果。此外,這種理解世界、理解物理規律的想法正是開發圖像生成模型的主要驅動力。我們在生成式模型方面做過的一些令人興奮的工作可以追溯到 10 年前,比如 WaveNet。20 年前,我們還在做圖像模型。我在讀博士時,那時大家都在做生成式圖像模型。我們經歷過那個階段。我們當時有叫 PixelCNNs 的圖像生成模型。某種程度上,當時大家意識到文字領域能取得更快的進展。但我認為圖像模型的回歸是非常自然的。在 Google DeepMind,我們在很長一段時間裡都擁有非常強大的圖像、視訊和音訊模型。將這些能力結合起來是順理成章的。我們現在的方向正是我們一直強調的多模態,而且是輸入輸出層面的多模態。這就是我們的方向。隨著技術的進步,這兩個不同領域之間的架構和理念正在相互融合。過去這些架構截然不同,但現在它們正在高度趨同。所以並不是我們在強行整合什麼,而是技術在自然地融合。隨著這種融合,大家都明白了從那裡可以獲得更高的效率,理念在何處演進,我們看到了一條共同的路徑。這條共同路徑結合得非常好。Nano Banana 是最初的那些時刻之一,你可以對圖像進行迭代,可以與模型對話。文字模型通過文字擁有了大量的世界認知,而圖像模型則從另一個角度理解世界。當你將這兩者結合時,會產生令人興奮的化學反應,因為人們會感覺到這個模型理解了他們想要表達的神韻。我們談談 Nano Banana Pro,這是在 Gemini 3 Pro 之上建構的全新業內領先圖像生成模型。團隊是否看到了在 Pro 級模型中做這件事的早期訊號,即利用 Pro 的架構可能會在文字渲染和世界理解等更細微的用例上獲得更強的性能?Koray Kavukcuoglu:我認為這可能是我們看到不同技術協同發揮作用的地方。對於 Gemini 模型,我們一直秉持的理念是,每個模型版本都是一個模型家族。我們有 Pro、Flash、Flash-Lite 這一系列模型。因為在不同的尺寸下,你在速度、精準性、成本等方面會有不同的權衡。隨著技術融合,我們在圖像方面自然也有同樣的體驗。所以我認為團隊的想法是,既然有 3.0 Pro 的架構,我們是否可以利用在第一版中學到的所有經驗,通過增加尺寸來調整這個模型,使其更側重於圖像生成?我認為最終我們得到了能力更強的東西。它能理解非常複雜的文件。一些最令人興奮的用例是,你有一大堆非常複雜的文件,輸入進去,我們依靠這些模型來回答問題,你還可以要求它生成一張相關的資訊圖表,效果非常好。這就是自然的輸入輸出多模態發揮作用的地方,這感覺就像魔法一樣。(關於統一權重)Tulsee 曾承諾我們將擁有統一的 Gemini 模型權重。現在的進展表明我們實際上已經非常接近那個目標了,即在圖像生成和文字生成上實現統一,儘管歷史上架構是不同的。這是否是一個確定的目標?目前有那些因素在阻礙這一處理程序?Koray Kavukcuoglu:正如我所說,技術和架構正在對齊,所以我們看到這正在發生。人們在定期進行嘗試。但這只是一個假設,你不能基於意識形態來做這件事。科學方法就是科學方法。我們提出假設,進行嘗試,然後看結果。有時成功,有時失敗。但這就是我們必須經歷的過程。目標越來越近了。我很確定在不久的將來,我們會看到這些東西結合在一起。逐漸地,它將越來越趨向於單一模態。但這需要大量的創新。仔細想想,這其實很難。輸出空間對模型來說至關重要,因為那是學習訊號的來源。目前,我們的學習訊號主要來自程式碼和文字。這是輸出空間的主要驅動力,也是我們在這些方面表現出色的原因。現在,要能夠生成圖像,我們在影像品質上的調整已經非常精細。這是一件很難的事情。生成像素級完美的質量很難。而且圖像在概念上必須是連貫的,每個像素不僅關乎質量,還關乎它如何與圖片的整體概念相融合。訓練一個能同時做好這兩件事的模型更難。我看待這個問題的方式是,我認為這絕對是可能的。這終將實現。關鍵在於找到正確的模型創新來達成它。06 DeepMind 利用 DeepThink 等項目在主線外探索新邊界DeepMind 現在擁有許多業內領先的模型。13 年前你是 DeepMind 的第一位元深度學習研究員,當時人們對這項技術並不興奮,而現在它驅動著所有核心產品。當你反思這段旅程時,你想到了什麼?Koray Kavukcuoglu:這令人驚訝嗎?這是充滿希望的、積極的結果。當我在讀博士時,我想每個讀博士的人都一樣,你相信你所做的東西很重要,或者將會變得重要。你對那個課題充滿熱情,你認為它會產生巨大的影響。我當時也是這種心態。這就是為什麼當 Demis 和 Shane 聯絡我,我們交談後,我對 DeepMind 感到非常興奮。得知有一個地方真正專注於建構智能,並且將深度學習作為核心,我非常激動。在那個年代,擁有一家專注於深度學習、專注於 AI 的初創公司是很不尋常的。我認為那是非常有遠見的。後來我組建了深度學習團隊,團隊不斷壯大。我認為其中一件事,我對深度學習的方法一直是一種關於如何處理問題的心態。第一原則是它總是基於學習的。這就是 DeepMind 的核心,一切都押注在學習上。從我們早期的工作開始,到強化學習和智能體,以及我們要一路走來所做的一切,這是一段令人興奮的旅程。你投身這些事業,總是希望有一個積極的結果。但反思過去,我想說我們很幸運。我們很幸運生活在這個時代,因為我認為很多人投身 AI 或他們熱衷的領域,都認為那是屬於他們的時代,是技術將會成功的時候。但它確實正在當下發生。我們也必須意識到,AI 之所以能在當下爆發,不僅僅是因為機器學習和深度學習的進步,還因為硬體的進化達到了某種狀態,網際網路和資料積累達到了某種狀態。是許多因素因緣際會。我很幸運能實際從事 AI 工作並一路走到這一刻。(關於里程碑對比)回顧 AlphaFold 等歷史里程碑,與現在相比,我們在組織團隊、將科學轉化為結果的經驗上有何不同?DeepThink 作為一個在奧林匹克數學競賽中實戰的模型,在其中扮演了什麼角色?Koray Kavukcuoglu:我認為在如何組織團隊,或者什麼是成功的文化特質,以及如何將艱難的科學和技術問題轉化為成功的結果方面,我們在過去的許多項目中積累了大量經驗,從 DQN、AlphaGo、AlphaZero 到 AlphaFold。所有這些項目都極具影響力。通過它們,我們學到了很多關於如何圍繞一個特定目標、一個特定使命進行組織,以及如何作為一個較大的團隊進行協作。我記得在 DeepMind 早期,我們會有一個 25 人的團隊一起做一個項目,並且 25 個人一起署名寫論文。每個人都會對我們說,肯定沒有 25 個人真的都在做這個吧。我會說,不,他們確實都做了。因為在科學和研究領域,這種規模並不常見。我認為那種知識、那種心態是關鍵。我們通過這些經歷完成了進化。這真的很重要。同時,對於最近這兩三年,我們將這種經驗與工程思維相結合,即我們要開發一條模型主線,並且我們學會了如何利用現有模型在這條主線上進行探索。我看到這一點的絕佳例子,每次想到這個我都感到很高興,是我們的 DeepThink 模型。那些是我們用來參加國際數學奧林匹克競賽、ICPC 競賽的模型。我認為那是一個非常酷且恰當的例子,因為我們在進行探索。你挑選這些宏大的目標。國際數學奧林匹克競賽真的很重要,它涉及真正極難的問題。向每一位參賽的學生致敬,這真的是了不起的事情。能夠把一個模型放到那個賽場上,當然,你會有一種衝動去為此專門定製一些東西。但我們試圖做的是利用那個機會來進化我們現有的技術,或者構想出與我們現有模型相容的新想法。因為我們相信我們所擁有技術的通用性。回顧當年那篇論文只有 25 位作者,而今天 Gemini 3 的貢獻者名單可能有 2500 人。看到這些問題現在的規模如此之大,這種從科學小團隊向大規模工程協同的轉變帶來了那些思考?Koray Kavukcuoglu:確實如此。這對我們很重要,這也是 Google 最棒的地方之一:這裡有太多各自領域的頂尖專家。我們受益於 Google 擁有的全端方法,因為在每一層都有專家,從資料中心到晶片再到網路,以及如何大規模運行這些系統。目前已經發展到一種狀態,再次回到這種工程思維,即這些環節是密不可分的。當我們設計一個模型時,是基於它將運行在什麼硬體上來設計的。同樣,我們在設計下一代硬體時,也知道模型大概會往那個方向發展。這非常美妙。但是協調這一切,當然需要成千上萬的人協同工作並做出貢獻。我們需要認識到這一點,這本身就是一件美妙的事情。07 Gemini 最大的風險是創新枯竭在這個時代,你如何看待 DeepMind 在“純粹的科學探索”與“僅僅試圖擴大 Gemini 規模”之間的平衡?要繼續擴大規模顯然需要創新,你如何看待這種決策?Koray Kavukcuoglu:那是關鍵所在,找到這種平衡真的非常重要。即使是現在,當人們問我“Gemini 最大的風險是什麼”時,我思考過很多,我認為 Gemini 最大的風險是創新枯竭。因為我真的不相信我們已經找到了“成功秘籍”,接下來只需要照章執行就行了。我不相信這一套。如果我們的目標是建構智能,我們要通過產品與使用者一起實現這一目標,那麼擺在面前的問題是非常具有挑戰性的。我們的目標依然極具挑戰且尚未實現。我不覺得我們已經掌握了既定公式,只需要單純地擴展或執行。唯有創新才能實現這一目標。關於創新,你可以將其視為在不同尺度上,或在與當前方向不同的切入點上進行的探索。當然我們有 Gemini 模型,在 Gemini 項目內部我們也進行了大量探索。我們探索新架構、新想法、不同的做事方式。我們必須這樣做,我們也在持續地這樣做。這就是所有創新的源泉。但同時,我認為 DeepMind 或整個 Google DeepMind 進行更多的探索對我們來說至關重要。我們必須做這些事,因為有些東西可能受限於 Gemini 項目本身而無法在其中探索。所以我們能做的最好的事情是,無論是在 Google DeepMind 還是在 Google Research,我們都要探索各種各樣的想法,並將這些想法引入進來。歸根結底,Gemini 不僅僅是一種架構。Gemini 是你想要實現的目標。你想要實現的目標是智能,你想通過產品來實現它,使整個 Google 真正運行在這個 AI 引擎上。從某種意義上說,具體是什麼架構並不重要。我們目前有一套方案,我們有演進的方法,我們將通過它不斷進化。而這背後的動力源泉將是創新,永遠都是創新。因此找到這種平衡,或者找到以不同方式進行創新的機會是非常關鍵的。在 I/O 大會現場我親身感受到了你、Sergey Brin 和 Demis Hassabis 展現出的人性溫暖。當你思考幫助塑造和營運這個團隊時,這種文化對你意味著什麼?Koray Kavukcuoglu:首先非常感謝你,你讓我有點不好意思了。但我認為這很重要。我相信我們的團隊,我相信信任夥伴並給予人們機會。團隊的層面很重要,這至少是我可以說我在 DeepMind 工作期間學到的東西。因為我們曾經是一個小團隊,你在那裡建立了那種信任。然後當你成長時,如何維持這種信任很重要,要創造這樣一種環境,讓人們感覺到我們真的在乎解決那些具有挑戰性的技術和科學問題,那些能產生影響、對現實世界有意義的問題。我認為這仍然是我們正在做的事情。正如我所說,Gemini 就是關於這一點的。建構智能是一個高度技術化、極具挑戰性的科學問題。我們必須以這種方式去處理它。我們也必須懷著謙卑之心去處理它,必須時刻審視自己。希望團隊也有同樣的感受。這就是為什麼我總是說我真的為團隊感到驕傲,他們配合得驚人地好。今天我們在樓上的茶水間聊天,我對他們說:“雖然很累人,很艱難,我們都筋疲力盡了,但這正是它的本質。”對此我們沒有完美的架構。每個人都聚在一起,協同工作並互相支援。這很難,但讓這一切變得有趣和愉快的,以及讓你能解決真正難題的,我認為在很大程度上是因為擁有正確的團隊在一起並肩作戰。 (數字開物)
螞蟻集團調整組織架構
11月7日,介面新聞獲悉,螞蟻集團CEO韓歆毅發佈全員信,宣佈升級組織架構,原“數字醫療健康事業部”正式升級為“健康事業群”,並將加速推動醫療健康業務成為戰略支柱類股。圖片來源:介面圖庫韓歆毅在信中提到,自6月推出獨立App後,AI健康管家AQ使用者正快速增長,已成為中國首個月活突破千萬的行業AI應用,並升至中國AI原生應用榜第7位。此外,螞蟻醫療大模型在HealthBench、MedBench等國內外多個權威醫療評測中達到領先水平,在醫學視覺和報告解析等領域也刷新行業基準。他還宣佈了一項新的高管任命,即日起,由張俊傑(偉鶴)擔任事業群總裁,並向韓歆毅匯報。張俊傑早在2014年便加入螞蟻,是支付寶醫療業務的首批員工之一,參與主導了線上掛號繳費、電子醫保碼、健康管家AQ等多項核心業務。這是螞蟻集團近年來頗為關鍵的一次組織架構升級。調整後,除螞蟻國際、螞蟻數字科技、OceanBase保持獨立公司營運外,支付寶事業群、數字支付事業群、財富保險事業群、信貸事業群與新成立的健康事業群,共同構成螞蟻5大核心業務類股。重投大健康領域,也意味著螞蟻完成了對生活服務、金融服務、健康服務三領域的AI戰略佈局。公開資料顯示,螞蟻對醫療健康領域的投入可追溯到11年前。2014年,該平台實現中國第一筆線上掛號繳費,2019 年又推出中國首張電子醫保碼,去年又收購了國內最大的線上問診平台好大夫線上、試運行AI健康管家AQ等。到目前為止,醫保商保支付、數位化就醫、AI醫療健康成為螞蟻健康的三大核心業務。據螞蟻方面公佈的資料,螞蟻健康平台累計服務使用者近9億。螞蟻集團上一次重大組織架構調整還是在去年12月。當時宣佈的架構調整中,螞蟻集團新成立數字支付事業群和支付寶事業群兩大事業群。數字支付事業群和支付寶事業群建立輪值總裁製,輪值總裁任期六個月,首任輪值總裁任期自本通知發佈起至2025年6月30日。任命勤一擔任首任數字支付事業群輪值總裁,任命溥天擔任首任支付寶事業群輪值總裁。同月,時任螞蟻集團董事長兼CEO井賢棟通過全員信宣佈,螞蟻集團總裁韓歆毅將從2025年3月1日起正式接任螞蟻集團CEO一職,全面負責螞蟻的各項業務及日常管理工作,向井賢棟及董事會匯報。未來井賢棟將專注於董事長工作,並全力支援好韓歆毅和管理團隊。根據阿里披露的2025財年財報,螞蟻集團2024年實現淨利潤383.27億元,同比增長61%,為母公司貢獻了126.48億元投資收益,佔阿里整體淨利潤的30.42%。隨著醫療健康業務成為戰略支柱類股,螞蟻集團的營收結構以及對阿里的利潤貢獻能力預計會發生一定變化。 (介面新聞)以下為全員信全文:各位螞蟻同學:向大家同步兩個新進展:自6月推出獨立app後,AI健康管家AQ使用者正快速增長,已成為中國首個月活突破千萬的行業AI專業級應用,並升至中國AI原生應用榜第7位;螞蟻醫療大模型在HealthBench、MedBench等國內外多個權威醫療評測中達到行業領先水平,在醫學視覺和報告解析等領域也刷新行業基準。在AI時代,螞蟻聚焦應用,錨定生活服務、金融服務、醫療健康服務三大服務業。為加速螞蟻在醫療健康領域的發展,使其盡快成為螞蟻的戰略支柱類股,我代表公司管理層宣佈以下組織決定和任命:即日起,「螞蟻數字醫療健康事業部」升級為「螞蟻健康事業群」,任命張俊傑(偉鶴)擔任事業群總裁併向我匯報。過去11年,從第一筆手機掛號繳費,到醫保碼服務超8億使用者,螞蟻始終堅持以技術驅動解決社會問題的初心。面向未來,AI為破解社會醫療健康痛點提供了關鍵路徑,我們也將篤定方向、全力以赴。我們一起努力,讓看病更簡單、生活更健康! 螞蟻集團CEO 韓歆毅 2025年11月7日
OpenAI 投資人 Reid Hoffman 點名的 AI 三大“低估賽道”,為什麼現在?
模型發佈節奏越來越快、參數越來越大、推理能力越來越強,但你有沒有發現一個反直覺的現象:真正被廣泛使用、願意付費的 AI 產品,往往不是媒體報導最多的那些。2025 年 10 月 21 日,OpenAI 投資人、LinkedIn 聯合創始人 Reid Hoffman 給出了一個不同尋常的解釋:殺手級的 AI 產品不是最強的,而是能讓人更懶、更富。他說,幾乎所有人都盯著“模型能力”的天花板,卻忽視了真正讓 AI 產品爆發的關鍵:能不能讓使用者幹得更少、賺得更多。循著這個邏輯,Hoffman 在訪談中重點談到了三個正在被低估的方向:① 醫療與藥物發現 —— 不是模擬藥效,而是創造藥物② 教育與知識工具 —— 不是搜尋答案,而是重構學習③ 勞動力增強 —— 不是替代工作,而是讓人“更懶更富”它們不是最酷炫的 demo,也不是最大的模型,但都在悄悄擴張。它們的共同特點是:不追求技術極限,而是追求商業閉環;不在矽谷的聚光燈下,卻在真實場景裡快速滲透。接下來,讓我們看看 Hoffman 為什麼在這三個方向上下注。第一節|AI + 醫療,不是助手,是重建藥廠Reid Hoffman 做過無數投資,但他親自下場聯合創辦的 AI 公司,只有極少數。而其中最重要的一家,是專注藥物發現的 Mati AI。他怎麼說的?“我們不是做傳統醫療 AI,也不是做診斷輔助工具。我們在建一座工廠,一個以 AI 為主力的藥物製造工廠。”這個定位很不尋常。在矽谷,幾乎所有醫療方向的 AI 產品都在圍繞“提升醫生效率”展開,比如自動摘要、病歷識別、問診助手。但 Hoffman 並不關心這些。他的問題是:能不能直接用 AI 設計分子?✅ 不是幫醫生開藥,而是直接造藥傳統藥物發現過程有三大難點:設計分子靠靈感;實驗周期太長;很多冷門病種沒人願意投。而 AI 能做的是,從億級的化合物組合中,用語言模型的方式生成有潛力的結構,然後用預訓練模型預測它是否會有效。過去需要幾個月的篩選周期,現在幾小時就能完成。Hoffman 的核心洞察是:如果你把分子結構當作一種語言,AI 就可以像寫作文一樣生成、改寫和評估分子。他舉例說:傳統治療癌症的做法,是用毒藥殺死癌細胞,但同時也在殺你。我們希望用 AI 直接找出只殺癌細胞、不殺人的分子。這不是宣傳標語。他自己找來合作的聯合創始人,是美國最頂尖的腫瘤醫生之一、《萬疾之王:癌症傳奇》(The emperor of all maladies: A biography of cancer)的作者 Siddhartha Mukherjee,兩人創辦 Mati 的明確目標就是:讓那些原本因為利潤太低沒人願意研發的病,也能有藥。✅ 機會不在醫院,在藥廠在 Mati 的核心架構中,承擔的不是輔助角色,而是藥物設計的核心工作:把抗癌藥的靶點、結合位置、毒副反應,轉化為 AI 能分析的內容;讓 AI 從海量組合中找出最可能有效的分子結構;用預測模型快速驗證,大幅縮短從設計到篩選的周期。所以 Hoffman 判斷:AI 改變醫療行業的方式,不是提升醫生工作效率,而是從根本上重建藥物開發的方式。第二節|AI + 教育,不是學得快,是重新定義“學習”Reid Hoffman 提出過一個看似簡單的問題:假如每個專業都有一個專屬 AI 助手,會發生什麼?早在 ChatGPT 之前,他就在史丹佛的長期規劃會上公開建議:"應該為每一個學科,建構定製的 AI 工具。為什麼?因為傳統教育系統的核心是讓人記住知識,但 AI 出現後,“知識”不再稀缺了。你需要的,不是再教一遍是什麼,而是有人幫你用對知識、用好工具。他說:“醫生這個職業不會消失,但它的本質會變。不會再是‘我上過10年醫學院,所以我懂’,而是‘我知道該怎麼用 AI,查出對的結果’。”醫生、律師、程式設計師、會計這些過去依靠記憶和經驗積累的職業,都在變成一種新的角色:AI 的專家使用者。✅ 不問 AI 意見,是不明智的Hoffman 說他和朋友去參加一場關於“AI會不會替代醫生”的辯論,反方舉了很多傳統論據,比如“人類有溫度”“診斷要交叉驗證”之類。但他指出,這些觀點忽略了一點:今天的 AI,不一定總是對,但它掌握的知識量早就超過任何一個人類了。他的觀點很直接:“如果你得了嚴重的病,卻不去諮詢 ChatGPT 或其他 AI 作為輔助判斷,那是非常不明智的”不是說要盲信 AI,而是你應該養成一種新的思維習慣:醫生說了一個結論?你拿去問問 AI;兩個 AI 給出不同建議?你就去找人類專家交叉對比。他說,未來專業人員要學會的是:當你相信的東西和 AI 給的不一樣時,你需要非常強的理由去堅持你的判斷。不再是第一判斷者,而是交叉驗證者和質疑者。這不是讓人被邊緣化,而是讓人站到新的位置上。你不再需要死背知識,而是要掌握如何用 AI 幫你找到、篩選、對比、理解知識。✅ 會用 AI 的人,比 AI 本身更稀缺在傳統教育裡,學歷和證書是選人的標配。Hoffman 講了一個他非常喜歡的觀點:科學的本質,是相信專家的無知。很多人會說:我有醫學博士,我有法學博士,我當然專業。但 AI 出現之後,“懂得多”不再是最重要的技能。他說,程式設計行業比其他職業更早適應 AI 的原因,是這裡從來就不認學位,只認程式碼能不能解決問題。這就帶來一個核心變化:未來重要的不是你知道什麼,而是你會不會用 AI 去幫你找到你不知道的。Hoffman 認為,未來醫生的核心競爭力,不再只是讀過醫學院,而是會用 AI 工具做更精準的分析。所以他推崇的方向不是讓 AI 替代老師,而是讓老師成為 AI 的訓練師。同時,每個學習者也要完成角色轉變:從被動接受資訊,到主動導航和篩選知識。這不是讓教育變簡單,而是讓“會學習”的定義變了。第三節|AI + 工作,不是取代誰,而是讓人更懶更富Reid Hoffman 在整場訪談中,反覆強調一句話:AI 最有殺傷力的產品,不是最聰明的,而是讓人更懶、更富。這就是他判斷 AI 產品能否成功的核心標準。我們都習慣把“懶”當作貶義詞,但在商業世界裡,“懶”有時候代表效率。能用更少的力氣幹成更多事情,才是真正聰明的方式。在他看來:現在大多數好用的 AI 工具,賣得好的不是因為它能做多少,而是因為它能幫你省多少事。比如:一位醫生可以同時處理 3 倍的病例;一個律師能同時起草好幾份文書;一個創業者用 AI 輔助寫 BP、分析競品、做使用者調研,一小時幹完原來兩天的活。這些都不是顛覆行業,也不是換掉誰,而是把人放在一個新的位置:我還做決策,但我不再幹重複活。Hoffman 說得:“真正能爆發的 AI,不是讓你失業,而是讓你省勁。”✅ 越是用得起 AI 的崗位,越容易先受益Hoffman 把這個趨勢總結為一句話:軟體吞噬世界,AI 重構勞動什麼意思?他解釋說,AI 在許多行業的最初切入口,並不是去取代全部流程,而是先吞掉那些“非創造性的勞動”部分。醫生的初診流程、表單填寫;律師的合同結構整理;市場分析人員的競品研究文件編寫;諮詢顧問的調研報告、行業模型搭建……你今天還在手動做這些事?那你真的不夠懶。在他看來,未來的趨勢不是會不會被 AI 替代,而是:你有沒有儘可能地用 AI 來節省時間、擴大產出。這也是他看好這個賽道的原因:從公司角度看, 能用 AI 讓一個員工頂三個人,是直接的提效;從個人角度看, 會用 AI 的人,升職更快、項目更多、時間更富裕。Hoffman 總結得很清楚:“一切要求人像機器人一樣工作的崗位,遲早會讓位給真正的機器人。但凡需要人腦和主觀判斷的工作,都會變成人+AI的協作模式,而不是AI替代人”✅ 真正在用 AI 的,是小團隊Hoffman 發現了一個有趣的現象:小企業、律師事務所、個體醫生那裡看到的 AI 使用,比在大公司裡還多。他認為,大企業有太多流程、審批、內部阻力,不敢輕易讓 AI 介入核心業務。但個體創業者、自由職業者、小團隊反而行動最快、最果斷。比如他提到的一個例子:一位原告律師接入 AI 工具後,簽約率翻倍,案件準備效率提高幾倍。這不是因為 AI 多懂法律,而是因為他更快搞定了案子,省下了以前花在整理、列印、覆核上的時間。這就是“懶而富”模型的核心:把 AI 做成一個工作副手;自己做最重要的判斷;其餘一切交給 AI 去提速。這類產品,是 Hoffman 最看好的 AI 應用方向。他說:“別想做那種每個人都會因此失業的產品。沒人願意買。最好的產品,是讓你工作更少、賺更多錢。”這才是 Hoffman 眼中,AI 最真實的商業邏輯。第四節|為什麼是現在?很多人今天不再懷疑 AI 的潛力,而是開始懷疑一個更現實的問題:是不是都晚了?是不是每個方向都有人做了?但 Reid Hoffman 的回答是:你看到的熱鬧方向,大機率不是機會本身。他說:“大家都盯著模型規模、參數數量、誰訓練得最貴,卻忽視了一個關鍵問題。AI 真正好用的地方,往往在沒人看見的角落。”他把這種看漏的地方稱為:矽谷的盲點。✅ 機會在“原子”,不在“位元”什麼叫“位元”?在 Hoffman 的話裡,位元代表軟體世界,比如:聊天機器人;AI 寫稿;文字總結、表格分析……這些都屬於“語言”層面的任務,門檻低、技術成熟、創業者多。而“原子”代表真實世界,比如:藥物分子;細胞反應;工業製造;生物結構……Hoffman 說,大多數人只想在“位元世界”裡卷功能、卷性能、卷提示詞。但真正長期有價值的方向,是如何讓 AI 進入原子世界。比如藥物製造、生物設計、物理過程預測。生物,就是“位元化的原子”。而這,恰恰是被低估的起點。為什麼機會還在?因為難度大、反饋慢、監管多、沒人講得清楚。但正因為這樣,一旦有人找到突破口,就可能建立起下一個十億美元等級的公司。✅ 找對問題,比做強模型更關鍵Hoffman 強調:人們總是根據 AI 現在的表現來下結論。這是最大的誤解。他舉了個例子:你兩個月前試過 ChatGPT,覺得沒用,就放棄了?這就像你看到兩歲半的老虎·伍茲打高爾夫,覺得你打得比他遠,就斷定他不會成事。但如果他一直練下去呢?他說:你現在用到的 AI,是你這輩子用過的最差的 AI。真正該問的不是AI 有多強,而是:這個方向,AI 能幫你省多少事、掙多少錢?這個領域,競爭對手多不多?門檻夠不夠高?這個問題,使用者真的著急解決嗎?不是 AI 沒用,是你沒找對問題。✅ 為什麼是現在 ?Hoffman 認為,今天是切入 AI 創業的好時機,原因不在於技術突破,而在於關鍵要素都到位了。① 模型能力跨越臨界點不只是對話,而是開始有真正的推理能力;可以自動分析、生成結構化內容、進行深度研究② 使用門檻大幅降低API 成熟,開源模型豐富,呼叫成本下降;不是程式設計師也能訓練模型、接入外掛、快速試驗③ 商業閉環開始形成企業、專業人士、自由職業者開始主動為 AI 付費;AI 已經從"新奇工具"變成"生產力工具"這三個訊號同時出現,意味著:早期還在熱身的賽道,正進入加速階段。而那些看上去還沒人講的方向,不是沒人想過,而是門檻高、難講清、不確定。正因如此,這才是真正的機會。真正值得做的,不是最熱的 AI,而是最有用的 AI。他說,不是每個賽道都值得卷,但醫療、教育、職業增強這三類方向,之所以值得關注,是因為它們不像搜尋、對話那樣容易 Demo,但一旦做成,使用者留存率極高,變現路徑極穩。這就是為什麼他把投資的重心,押在這幾個方向上。因為他不是看項目火不火,而是看是不是能長期產生真實價值。結語|不需要追最強 AI,只要找到最有用的那一個Reid Hoffman 給出的答案很簡單:AI 不是用來替代誰,而是幫助一部分人更快地超越另外一部分人。他點名的那些被低估的方向,都有一個共同特徵:“不靠技術領先取勝,而是真正理解使用者想省掉什麼步驟、解決什麼困難、節省多少時間。”就像早期電腦讓普通人能算帳,網頁讓普通人能寫內容,大語言模型讓普通人能理解複雜世界。AI 的下一步,就是讓普通人也能操作專家級的系統。所以,真正值得做的,不是最強的 AI,而是滿足三個條件的 AI:你明天還會用、願意花錢買、能幫你節省一半時間。如果你今天還沒找到這樣一款工具,那可能不是 AI 不夠強,而是你還沒有真正開始找。那些最不起眼的地方,往往藏著最大的機會。 (AI 深度研究員)
搭上輝達,漲幅 120% 的第三代半導體企業估值如何?
在 2025 年 5 月 21 日,輝達正式宣佈與 Navitas Semiconductor(NVTS)共建 800 V 高壓直流(HVDC)資料中心電源架構,目標服務 1 MW 級 “Kyber” 機架和下一代 Rubin Ultra GPU。消息發佈後的兩周內,Navitas 股價最高累計上漲約 120%(單日一度暴漲 125%)。輝達需要更高效率、更高功率密度的供電方案來支撐 AI 工廠,而 Navitas 以 GaNFast™ 氮化鎵與 GeneSiC™ 碳化矽功率器件切中痛點,資本市場由此迅速將其納入 “AI 基建” 概念。輝達 HVDC 合作帶來的直接影響技術層面:雙方將把 GaN 與 SiC 器件整合進 800 V 架構,可將 PSU 端到端效率再提升約 5%,銅材用量減少 45%,並行布了 12 kW、效率 97.8% 的參考平台,符合 OCP ORv3 規範。商業層面:Navitas 管理層在 Q1 業績會上強調,這一合作會加速其進入 AI 資料中心賽道,並已在 2024 年斬獲 4.5 億美元的新增設計贏單(design-wins)。按照行業慣例,設計贏從定點到量產通常需 12-24 個月,最快 2026 年開始貢獻大額收入。為何 Navitas 具備差異化優勢?整合度:GaNFast™ 將功率電晶體、驅動、保護邏輯單晶片封裝,可在 >2 MHz 開關頻率下保持 <2 nS 的“軟關斷”,同時現場失效率低至百億分之一,提供 20 年質保。雙材料棧:通過收購 GeneSiC,Navitas 既掌握 650 V 以內高頻 GaN IC,又覆蓋 650 V-6.5 kV SiC MOSFET/二極體,能滿足移動快充到高壓儲能的完整電壓段。驗證壁壘:功率器件需長周期可靠性測試;一旦客戶通過資格認證,後續切換成本高。Navitas 已累計出貨 2.5 億顆快充 IC,並在資料中心、太陽能與 EV 獲得頭部客戶 early-design-ins。公司背景與產品版圖Navitas 成立於 2014 年,自稱全球首家純粹第三代半導體 IDP(整合設計-生產型公司)。2018 年量產 GaNFast™,2022 年併購 SiC 先鋒 GeneSiC,形成 GaN + SiC 雙輪驅動。主要產品線財務表現與機構展望Q1 2025 業績:收入 1,400 萬美元,同比 –40%,環比 –22%;GAAP 經營虧損 2,530 萬美元,但虧損絕對額已較去年縮小。全年指引:管理層維持 2025 年收入 1.4-1.5 億美元的目標,下半年隨新 PSU、EV 平台量產有望反彈。機構觀點:. Rosenblatt 將目標價由 4 美元上調至 6 美元(合作發佈當周)。. MarketBeat 彙總 6 家券商平均目標價 3.79 美元,仍低於當前股價,反映分歧加大。. 絕大多數分析師仍給予 “Moderate Buy”,但擔憂短期營收真空和持續融資需求。估值與空間測算當前市值:按 6 月 11 日收盤價 7.96 美元計算,完全攤薄股本 1.92 億股,對應 約 15.3 億美元 市值。相對估值:. NVTS 的 TTM P/S≈19.8 倍,明顯高於 Wolfspeed(~5 倍)與 Onsemi(~4 倍),接近早期 GaN 獨角獸 Power Integrations 的估值區間。DCF 情景(內生 + 50% 合作滲透率):. 假設 2026 年收入上升至 1.5 億美元,2030 年達 6 億美元;經營利潤率逐步修復至 20%;WACC 10%,永續增長 4%。. 則估算 股權價值區間 22-25 億美元,較現市值有 約 45-65% 的理論上行。在更保守情景(收入 2030 年僅 4 億美元)下,DCF 估值約 14 億美元,與現價基本持平。結論:輝達 HVDC 合作讓 Navitas 獲得 AI 資料中心的 “入場券”,短線交易邏輯取決於市場對其訂單兌現速度的信心;中長期價值需等 2026 年前後營收與毛利率顯著改善才能兌現。以當前 15 億美元市值計,若高增長劇本成真,仍有可觀彈性;反之估值已提前透支,回呼風險同樣不容忽視。 (老王說事)
一文帶你詳細瞭解輝達Hopper H200 GPU
NVIDIA H200 Tensor核心GPU是基於 NVIDIA Hopper架構的最新力作,專為加速生成式AI、大語言模型(LLM)、高性能計算(HPC)和科學計算設計。2024年初發佈以來,H200迅速成為AI行業的焦點,其核心亮點在於引入了HBM3e記憶體,顯著提升了記憶體容量和頻寬,完美適配超大規模模型的需求。相比前代H100,H200並非全新架構,而是對Hopper架構的最佳化升級,重點提升記憶體性能和能效,堪稱“核動力引擎”的進階版。H200面向的企業場景包括:生成式AI:如大語言模型訓練與推理(LLaMA、Grok等)。高性能計算:氣候模擬、分子動力學等科學計算。資料分析:大規模資料庫處理與機器學習工作負載。其主要客戶群體涵蓋雲服務商(如AWS、Azure)、AI初創公司、科研機構以及需要超算能力的大型企業。一 H200 GPU的核心技術H200 的性能飛躍,離不開以下核心技術:(1)HBM3e 記憶體:記憶體瓶頸的終結者H200首創搭載HBM3e記憶體,容量高達141GB,頻寬達到4.8TB/s,相較 H100的80GB HBM3記憶體和3.35TB/s頻寬,分別提升了1.76倍和1.43倍。為何重要?大模型(如 GPT-4)參數量動輒百億,推理和訓練需要頻繁訪問海量資料。HBM3e的高頻寬和容量大幅減少資料傳輸瓶頸,加速模型迭代。實際效果:在 LLaMA-70B推理任務中,H200的吞吐量比H100提升約 30%,顯著縮短響應時間。(2)Hopper 架構最佳化H200延續了H100的Hopper架構,但在微架構上進行了細化:Transformer引擎:專為 Transformer模型最佳化,支援FP8精度計算,在不犧牲精度的前提下將計算效率翻倍。NVLink4.0:提供900GB/s的GPU間互聯頻寬,支援多GPU協同處理超大模型。第四代Tensor核心:相比A100的第三代Tensor核心,FP16性能提升約3倍,為深度學習提供強勁算力。(3)能效提升H200在性能提升的同時,維持與H100相近的700W TDP(熱設計功耗)。通過最佳化的記憶體管理和計算調度,H200在LLM任務中的能效比提升約50%,為企業節省可觀的電力成本。圖1-1 高達2倍的LLM推理性能二 H200 GPU詳細規格以下是H200的詳細規格,清晰展示其技術實力:關鍵亮點:FP8 性能突破:1979 TFLOPS 的 FP8 算力,適合低精度高吞吐的推理任務。記憶體容量翻倍:141GB 記憶體支援單 GPU 運行更大模型,減少分佈式訓練的複雜性。高頻寬互聯:NVLink 4.0 確保多 GPU 叢集的高效協作。三 競品對比為評估H200的市場競爭力,我們將其與NVIDIA H100、AMD Instinct MI300X以及Intel Gaudi 3進行對比:具體分析如下:對比H100:記憶體與性能的全面升級,H200在記憶體容量、頻寬和算力上全面超越H100,尤其適合記憶體密集型任務(如LLM微調)。但價格略高,升級成本需權衡。對比AMD MI300X:性能與生態的博弈,MI300X的記憶體容量(192GB)和頻寬(5.3TB/s)略勝,但其 FP8 性能和生態成熟度(ROCm)不及H200的CUDA生態。H200在AI開發中的相容性更強。對比Intel Gaudi 3:成本與效率的較量,Gaudi 3價格更低,適合預算有限的企業,但其能耗較高(900W),且OneAPI生態尚不成熟,短期內難以撼動NVIDIA的市場地位。結論:H200 在性能、能效和生態支援上佔據優勢,但高昂的價格可能讓中小型企業望而卻步。四 成本和ROI分析1、成本構成硬體成本:單塊H200價格約3萬美元,8GPU叢集成本約24萬美元。維運成本:資料中心冷卻、電力等每年約佔硬體成本的20%-30%。軟體成本:CUDA生態免費,但模型開發與最佳化需額外投入。2、ROI 分析以部署 LLaMA-70B 的雲服務商為例:收益:H200提升30%吞吐量,增加使用者容量,假設年收入增長100萬美元。成本:8GPU叢集(24萬美元)+維運(6萬美元/年)=30萬美元首年成本。回收周期:約3.6個月,ROI極高。相比H100,H200的初期投入高約20%,但能效提升和性能增益可將總體擁有成本(TCO)降低50%。五 實戰效果與場景建議1、實戰表現H200 的強大性能已在多個領域得到驗證,以下是典型應用場景:(1)生成式 AI案例:某雲服務商使用 H200 叢集部署 LLaMA-70B 模型,推理延遲降低 40%,支援更多並行使用者。優勢:高記憶體容量支援單 GPU 運行大模型,簡化分佈式部署。(2)高性能計算案例:某科研機構利用 H200 進行氣候模擬,計算速度提升 35%,顯著縮短項目周期。優勢:FP16 高算力適配科學計算的高精度需求。(3)資料分析案例:某金融企業用 H200 加速風險評估模型訓練,資料處理效率提升 50%。優勢:高頻寬記憶體加速大規模資料集的載入與處理。2、適用場景建議高預算企業:如雲服務商、AI頭部公司,H200的性能優勢可快速轉化為市場競爭力。中小型企業:可考慮租賃 H200雲實例,降低前期投入。科研機構:H200的高算力適合長期項目,需平衡預算與性能。 (AI算力那些事兒)
萬字長文!AI智能體全面爆發前夜:一文講透技術架構與行業機會
你可能聽說過:2023 是智能體元年,但很多人沒意識到,2025年,才是智能體真正落地改變世界的第一年。這是一篇萬字級乾貨長文,我會帶你系統性理解智能體的技術迭代、產品選型與行業案例。內容很長,但資訊密度很高,如果你想瞭解【智能體風口】背後的邏輯,建議收藏。一、智能體的發展歷程2025年,被廣泛認為是 AI Agent(人工智慧智能體)正式進入應用爆發的重要轉折點。這一說法並非來自行銷造勢,而是由技術突破、產品形態變革與生態成熟度共同推動的階段性標誌。1.什麼是智能體(AI Agent)人工智慧智能體(AI Agent),指的是一種具備感知能力、決策能力、執行能力與反饋能力的自主運行系統。它不僅能夠接收外部資訊,還能夠在內部進行處理判斷,並基於預設目標主動採取行動,甚至在執行過程中根據環境變化進行自我修正。通俗理解,一個“Agent”是可以“幫你完成目標”的AI助理,但技術本質遠不止如此。智能體的核心特性:智能體與傳統軟體的區別:智能體定義可以參考《人工智慧:一種現代方法》(Artificial Intelligence: A Modern Approach)一書中—— “智能體是一種自主實體,其通過感測器感知環境,利用執行器對環境施加動作,並將行為導向目標實現。”2.智能體發展簡史智能體(Agent)並不是大模型時代才提出的概念,其思想最早可追溯至20世紀60年代AI的起點。隨著技術的發展,智能體逐漸從學術理論走向工業應用,並在2023年迎來實質性爆發。第一階段:符號主義Agent(1956–1990)人工智慧剛剛誕生,Agent以“專家系統”“推理機”形式存在,強調邏輯、規則與狀態機建模。第二階段:多Agent系統與行為主義Agent(1990–2015)隨著分散式運算發展,出現“多個智能體協作”的MAS(Multi-Agent Systems)研究方向,強調分佈式決策、博弈機制、通訊協議。第三階段:大模型驅動的智能體躍遷(2017–至今)Transformer架構 + 大語言模型(LLM)成為基礎設施,Agent能力從邏輯符號躍遷到語言+知識+推理融合的新階段。3.為什麼說 2025年“智能體爆發”之年以往的AI功能更多是“玩具型應用”,而2023開始出現了大量真實可用、可變現的Agent產品,真正觸達了普通使用者或中小企業:GPTs App(2023年11月):非開發者也能一鍵建構Agent扣子空間 Coze.cn:首個將智能體“外掛生態+微信/飛書整合”打通的平台智譜清言智能體中心:提供專業化工作流(如論文潤色、財務分析、醫療問診)Manus:全球首個具備“自主規劃+執行報告+指令思考”的通用AI Agent系統許多開發者和企業開始意識到,智能體不是“功能增強”,而是正在逐步成為下一代應用入口 + 工作方式 + 使用者互動範式:Agent不再是一個外掛,而是未來每個App的“中控腦”使用者將從“點開應用”轉為“召喚Agent”作業系統將逐步被“對話式Agent互動”替代(如Rabbit R1的設計理念)因此,205不僅是智能體“技術可行”的一年,更是“生態啟動”“產品感知”“市場熱度”“認知轉型”四位一體的臨界點。二、智能體的通用架構與核心能力剖析這節內容將從系統性視角,拆解AI智能體的通用架構,描述一個“可運行的Agent”是如何從結構層面建構起來的。2.1 通用智能體架構圖要理解智能體的工作原理,首先要明確其基本架構。一個標準的AI Agent系統,可以分為以下五層組成:2.2 四大核心模組詳解在實現層面,幾乎所有現代智能體系統都圍繞這四個關鍵模組建構而成:1)任務解析與目標規劃模組(Planner)智能體首先接收到使用者請求(自然語言),需要識別其意圖並將其轉化為可執行目標鏈。此過程通常包括:意圖識別(Intent Classification),子任務拆解(Sub-task Decomposition),執行順序規劃(Task Sequencing)當前主流方法包括:ReAct(Reasoning + Acting)Tree of Thought(ToT)AutoGPT類的閉環自反饋規劃機制2)工具呼叫與執行引擎(Executor)一旦任務被拆解,智能體需要實際呼叫外部API、資料庫、程式碼執行器或RPA流程來完成工作。關鍵點包括:工具註冊與調度(Tool Registry),函數呼叫介面(OpenAI Function Calling / ToolSchema),工具選擇機制(基於語義、描述或意圖匹配)例如:呼叫天氣API查詢氣象執行Python程式碼計算財報同比增長上傳檔案至雲盤、拉取報告等操作3)記憶系統與上下文儲存(Memory)智能體要實現持續對話與任務接續,必須具備“記憶”,記憶系統大致可分為三類:技術關鍵點:Memory retrieval 是效率與精準性的關鍵Memory 與 LLM 的介面設計決定了智能體的“連貫性”4)反饋最佳化與自適應機制(Feedback Loop)最後,智能體的輸出並非終點,它需要通過執行結果判斷任務是否成功,是否需要修正。常見的反饋路徑包括:使用者打分(手動反饋)目標達成率檢測(如表格是否填完?網頁是否載入?)自我Reflexion(Agent主動評估執行是否合格)該模組是智能體“具備適應性”的基礎,也正是其與傳統指令碼系統最大的區別。三、主流智能體框架盤點從開發路徑劃分、核心框架對比以及運行機制解析三方面入手,盤點當前主流開發框架與平台。3.1 智能體開發三類路徑目前市場上的智能體開發路徑主要可劃分為以下三類:說明:商業平台適合快速原型驗證和行業落地通用框架提供最大靈活度,是當前技術發展的主戰場手搓方式適用於極端定製場景,但維護成本高,不推薦規模化使用3.2 主流框架深度對比以下是目前社區與企業中最具代表性的五個智能體開發框架/平台的核心能力對比表:說明:LangChain 是最為通用、生態最豐富的選擇,支援各類Agent拓展和工作流自訂AutoGen 強調對話驅動+角色扮演式協同,適合建構“人類 + 多AI”協作系統Coze 主打低門檻,適合中小企業快速部署智能體CrewAI + MetaGPT 強調多智能體協作與分工,適用於複雜項目流程模擬3.3 智能體運行原理詳解(以 LangChain 為例)LangChain 是目前開源社區最活躍的智能體框架之一,也是眾多產品與Agent平台的技術底座。1)LangChain 的三大核心概念2)LangChain Agent 執行流程一個典型的 LangChain Agent 執行邏輯如下:接收指令:使用者輸入一個開放性任務,例如:“幫我寫一份關於AI智能體的演講稿。”呼叫AgentExecutor模組:由語言模型生成初步計畫與思路,識別出需要那些子任務。動態選擇工具:Agent根據上下文,自動匹配可用的Tool(如搜尋、資料提取、語法檢查等)。執行每步操作:呼叫對應工具 → 獲取結果 → 回傳給Agent → 再決策下一步直到目標完成或終止:Agent持續執行、最佳化,直到任務完成或達到最大循環次數輸出結果:返回最終結果至使用者,如文章、圖表、分析報告等3)LangChain 的運行策略(ReAct vs Plan-and-Execute)LangChain 提供多種Agent運行策略:ReAct(Reason + Act):每輪任務都進行“推理→執行→觀察”,適合即時互動型任務Plan-and-Execute:先生成完整執行計畫,再逐步執行每一階段,適合中長流程任務,如寫報告、做分析等四、智能體關鍵技術模組拆解現代AI智能體之所以能執行複雜任務,靠的並不是一個“萬能的大模型”,而是多種模組的協同配合。4.1 Prompt 編排與意圖識別多輪任務鏈的提示設計:一個高品質的智能體並非靠單輪Prompt取勝,而是通過任務鏈式設計,使其具備分階段完成複雜任務的能力。這就涉及多層次的Prompt結構:智能體需要根據每輪反饋動態調整下一輪Prompt,這就是所謂的自適應提示生成策略(Adaptive Prompting)。動態上下文與歷史回呼機制:智能體之所以“看起來有記憶”,往往是因為上下文狀態被動態拼接進每輪提示中。這種機制包括:最近N輪對話內容合併(典型如ChatMemoryBuffer)狀態變數嵌入(如任務進度、階段標記)回呼機制:失敗時回滾提示鏈、重試/換工具/換策略4.2 Memory 機制:如何讓 Agent“有記憶”沒有記憶的智能體,只能是“聰明的應聲蟲”,這裡存在短期記憶,和長期記憶。關鍵區別在於:STM依賴Prompt拼接,即時載入 → 快但不持久LTM基於檢索,長期儲存,帶召回 → 慢但精準Agent記憶的“長期知識”通常借助Embedding + 向量檢索技術建構:將文字(如聊天記錄、產品文件)切片處理使用Embedding模型(如OpenAI/text-embedding-3-large)向量化存入向量庫(如FAISS、Chroma、Weaviate)根據語義距離檢索最相關內容,並注入Prompt中4.3 Tool Use 系統:工具呼叫的邏輯與策略工具不是配角,是智能體具備“行動力”的關鍵,主流的工具外掛系統目前形成了三種主流規範:4.4 A2A多Agent通訊協議:智能體間的協作協同“一個Agent能幹活,一群Agent才能幹大活。”Google推出Agent2Agent(簡稱 A2A)協議,旨在打破現有框架與供應商之間的壁壘,實現AI智能體在不同生態系統中的安全、高效協作。A2A協議為AI智能體的互動提供一套普適規則,是對上下文協議 (MCP) 的補充,更側重於智能體之間的互動與協作。A2A支援多模態協作,允許AI智能體在統一工作流程中共享和處理文字、音訊及視訊等多種格式的資料,使不同供應商開發的AI代理能夠安全、自由地通訊協作,支援複雜任務分解與多專家協同。每個Agent擁有獨立Prompt和Memory,但能通過系統調度有序協作。其本質是:多個LLM Agent 平行/序列對話按照任務流程角色分工狀態通過上下文/日誌傳遞五、典型應用場景與案例拆解AI智能體已經在多個領域快速落地,在C端,它是貼身助手;在B端,它是業務外腦;在開發者生態中,它是自動化的引擎。5.1 面向C端使用者的輕應用C端使用者對“智能體”的理解往往源於生活需求,他們更在意使用門檻與即時反饋。智能客服與推薦助手場景痛點: 傳統FAQ僵硬、轉人工耗時解決方案: 接入企業資料庫/文件/產品庫,建構可上下文理解的對話式助手實踐案例:某教育平台基於AutoGen建構的“學習小助手”,使用者提問如“四六級寫作有那些範本”,智能體可引用具體內容推薦資源,追問後可自動加深講解多模態內容創作:文案+圖像+視訊生成場景痛點: 內容生產門檻高、產出周期長解決方案: 將文案生成、圖像生成、短影片剪輯自動組合實踐案例:“國學養生數字人”項目:基於Coze智能體+SD圖像+AI口播,使用者輸入“調理肝火的中藥”,一分鐘自動生成一段古風視訊並同步發佈到視訊號5.2 面向B端企業的行業智能體在企業中,智能體更像是“超級外包助手”——能穩定完成重複任務、減少人工干預,並具備持續學習能力。電商智能營運助理場景痛點: 商品營運繁瑣,尤其是SKU上架、主圖設計、文案撰寫解決方案: 建構“商品上架→圖文最佳化→標題生成→競品分析”的完整流程Agent實踐案例:某跨境賣家基於Coze搭建了“亞馬遜營運助手”,每天匯入新品SKU Excel,自動批次生成標題、類目、五點描述,並抓取對手關鍵詞進行反向分析醫療問診協助場景痛點: 醫生時間有限,患者問診頻繁解決方案: 建構疾病篩查、症狀分診、藥品解釋等專用智能體實踐案例:國內某三甲醫院與訊飛合作打造“分診AI助手”,支援自然語言輸入如“嗓子痛三天咳痰”,並給出可能科室建議和掛號提醒金融理財顧問場景痛點: 投資建議缺乏個性化,市場資訊過載解決方案: 結合行情資料和使用者風險偏好,智能生成組合推薦與風險預警實踐案例:華泰證券的“A股觀察助手”Agent,支援每日大盤播報、技術指標簡報生成、行業主題趨勢提取5.3 開發者生態中的自動化 Agent對於技術從業者而言,智能體是解放腦力勞動的新工具,已從輔助工具走向工作流引擎。自動程式碼生成與評審場景痛點: 編碼重複性高,評審成本大解決方案: 建構“需求→生成程式碼→自動運行→單元測試→評審”全流程智能體實踐案例:Devin:具備自主規劃任務、運行程式碼、發現Bug、修復並重試的能力業務流程自動化(AutoRPA + Agent融合)場景痛點: 人工流程長、介面不統一解決方案: 將傳統RPA能力嵌入Agent中,使其具備網頁點選、資料搬運等實操能力實踐案例:某物流平台建構“發票自動下載Agent”,使用者只需輸入時間段,Agent可自動登錄多個供應商後台,識別驗證碼並下載所有PDF帳單核心結論:Agent不是取代人,而是“嵌入人”的流程裡,讓每個人效率更高。六、智能體面臨的現實挑戰與技術瓶頸儘管AI智能體被視為下一代人工智慧的落地形態,但現實中,它的發展並非坦途,智能體仍處於一個“能力不夠穩定,生態未成氣候”的早期階段。6.1 技術層面挑戰智能體不是簡單拼模型或加外掛,而是一個複雜的系統工程。模型呼叫成本 vs 即時互動需求當前大多數Agent依賴LLM(如GPT-4、Claude、GLM等)進行多輪推理和函數呼叫,每一步都會產生Token費用。當Agent需要呼叫多個工具、多輪決策時,整體成本將呈指數級上升,這對ToC產品的成本控制提出挑戰。與此同時,使用者對“即時反饋”的預期越來越高,而LLM的響應速度(尤其在多輪呼叫、多模型組合時)仍有延遲。典型矛盾:“一次Agent運行成本約0.5元,使用者卻只願意為一次服務付出0.1元。”多Agent間的同步與協同問題多智能體系統(如LangGraph、AutoGen)雖可模擬真實組織協作,但狀態同步、上下文一致性、角色邊界控制仍缺乏成熟機制Agent之間可能出現重複勞動、任務衝突、死循環互動等問題當前缺少類“工作流協調器”的通用調度元件論文連結:https://arxiv.org/abs/2503.13657圖|使用 GPT-4o 和 Claude-3 的 5 種常用多 agent LLM 系統的故障率典型問題包括:上下文丟失:Agent間傳遞資訊斷鏈權限不清:多個Agent試圖修改同一狀態協同效率低:依賴語言互動,缺乏結構化介面推理穩定性與邊界控制機制LLM推理具備“生成隨機性”,即使在相同Prompt下也可能輸出不同結果對於需要高一致性和確定性的業務任務(如財務分析、法律諮詢),這種不穩定成為部署阻力。缺乏統一的邊界控制機制(Guardrails),如輸入校驗、工具呼叫約束、異常處理等。當前侷限:許多Agent仍處於“演示能跑、生產不敢用”的狀態。圖|多 agent 系統的解決策略和故障分類6.2 產品層面挑戰AI技術能否真正落地為產品,關鍵在於是否“解決了使用者問題”。普通使用者對“Agent”的認知仍停留在GPT等級,容易高估其能力,低估其學習曲線。很多使用者第一次體驗智能體時,會嘗試“互動式問答”或“泛用助手”,結果失望而歸。教育成本高導致冷啟動困難,平台DAU/留存波動大。與現有工具的“重複建設”問題很多Agent產品試圖復刻已有工具的功能(如寫日報、查航班、訂餐廳),但並不明顯優於原工具。使用者天然會拿“現成的APP”與智能體對比,若體驗無顯著提升,使用者粘性極低。“泛用Agent”幾乎無法與專業垂類產品競爭。高品質Workflow的挖掘與打磨難度大真正有價值的Agent需要“深度理解場景+長期迭代調優”,而非Prompt堆疊。高品質Workflow通常來源於一線業務人員的經驗總結,但技術團隊與業務團隊存在認知鴻溝。很多創業團隊高估了模型能力,低估了“業務工程化”的難度。AI Agent正處於“能力剛可用、生態未成熟、使用者期待高”的臨界點。但如同電力普及經歷了40年從蒸汽機向電機的轉換,Agent作為“AI基礎設施”的轉型也將是一場持續的系統性工程。七、未來展望:智能體演化方向智能體(AI Agent)正從“工具”邁向“作業系統”,從“助手”演進為“員工”,並逐步重塑人機互動範式與組織結構。7.1 從智能體到智能體作業系統(AgentOS)傳統的圖形使用者介面(GUI)依賴使用者主動操作,而未來的智能體將通過自然語言、語音、圖像等多模態互動方式,主動理解使用者意圖,提供個性化服務。這將使使用者無需學習複雜的操作流程,降低使用門檻,提高效率。未來的作業系統將以智能體為核心,整合各種應用和服務,使用者通過與智能體互動,即可完成資訊查詢、任務管理、裝置控制等操作,實現“所想即所得”的體驗。7.2 通用智能體(Generic Agent) vs 專業Agent(Vertical Agent)通用智能體具備廣泛的知識和能力,能夠處理多種任務,適用於個人助理、教育、娛樂等領域,其優勢在於靈活性和適應性,但在特定領域的專業性可能不及專業智能體。專業智能體專注於特定領域,具備深厚的專業知識和能力,適用於醫療、金融、法律等行業。其優勢在於高精度和高可靠性,但在跨領域任務中可能受限。7.3 從AI工具 → AI員工:Agent將如何重塑組織結構?隨著智能體能力的提升,企業開始將其視為“數字員工”,承擔資料分析、客戶服務、內容創作等任務。這不僅提高了效率,還降低了人力成本。傳統的金字塔型組織結構將被更加扁平化、靈活的結構所取代。智能體將與人類員工協同工作,形成“人機混合團隊”,實現優勢互補。管理者需要重新定義角色,更多地關注人機協作、任務分配和績效評估。同時,企業需要建立新的治理機制,確保智能體的合規性和倫理性。寫在最後智能體(AI Agent)不是某個模型、某段程式碼、某種工具的代名詞,而是一種全新的計算範式和系統架構思維。它的真正價值,不在於“看起來很酷”,而在於它正在重構我們與資訊、工具、組織之間的關係——從手動執行,到自動協同;從人找資源,到任務找人。OpenAI奧特曼最新專訪,給出了智能體發展時間表:2025年大規模上線,2026年具備科學發現能力,2027年將進入現實世界並創造商業價值。現在回頭看,2025年的“Agent熱”,不是曇花一現的泡沫,更像是“電力剛剛普及”“作業系統剛剛出現”時的那種拐點感——變化悄然開始,但影響深遠。 (越哥聊AI)